„Schlechte Manieren“: Der unerwartete Trick, um die besten ChatGPT-Antworten zu erhalten

Gute Manieren, Freundlichkeit und Höflichkeit sind nicht die besten Methoden, um die optimale Leistung künstlicher Intelligenz zu erzielen. Im Gegenteil: Es ist wahrscheinlich sogar kontraproduktiv . Eine aktuelle Studie legt nahe, dass ein unhöflicher oder gar rüder Tonfall im Umgang mit ChatGPT tatsächlich zu präziseren Antworten führen kann.
Die Autoren der Studie geben an, dass in allen Tests, die mit dem GPT-4o-Modell, der Version vor dem aktuellen GPT-5 , durchgeführt wurden, die Ergebnisse durchweg in die gleiche Richtung wiesen: Freundlichkeit führt zu ungenaueren Antworten .
Die Forscher formulierten 50 Fragen aus verschiedenen Bereichen – Mathematik, Naturwissenschaften, Geschichte und anderen – und gaben sie in ChatGPT ein. Jede Frage wurde fünfmal in unterschiedlichen Tonlagen formuliert : sehr höflich, höflich, neutral, unhöflich und sehr unhöflich.
Die Autoren der Studie geben an, dass die Ergebnisse aller durchgeführten Tests durchweg in die gleiche Richtung wiesen: Freundlichkeit führt zu ungenaueren Antworten .
Nach der Formulierung der Fragen wurden 250 unterschiedliche Antworten erhalten, die anschließend analysiert wurden, um einen möglichen Zusammenhang zwischen dem verwendeten Tonfall und der Genauigkeit des Ergebnisses zu ermitteln.
Das Ergebnis war überraschend: Je unhöflicher der Ton der Nachricht war, desto genauer war die Antwort .
(Foto: Reuters)Die Daten zeigten folgende Erfolgsquoten :
- Sehr gut: 80,8 % Genauigkeit
- Freundlich: 81,4 % Genauigkeit
- Neutral: 80,8 % Genauigkeit
- Unhöflich: 82,2 % Genauigkeit
- Sehr unhöflich: 84,8 % Genauigkeit
Die Studie zeigt somit einen klaren Trend: Je grotesker der Tonfall wird, desto höher ist die Genauigkeit . Der Grund dafür ist vorerst nicht ganz klar, da die Autoren selbst einräumen, nicht zu verstehen, warum die emotionale Intensität einen so deutlichen Einfluss hat.
Zusammenfassend lässt sich sagen, dass der Tonfall bei der Interaktion mit ChatGPT eine Rolle spielt, und zwar nicht unbedingt der höflichste: Die Studie besagt, dass ein neutraler oder leicht unhöflicher Tonfall genauere und korrektere Antworten hervorrufen kann. Es schadet also nicht, diese Strategie anzuwenden, wenn Sie die beste KI-Leistung erzielen möchten.
Illustratives BildAuf Anfrage von Clarín widersprach OpenAI, das Unternehmen für generative künstliche Intelligenz, der Studie direkt: „Nein, es stimmt nicht, dass eine ‚schlechte Behandlung‘ oder Beleidigung von ChatGPT die Ergebnisse verbessert.“ Ihr Argument basiert auf der Tatsache, dass Modelle wie ChatGPT am besten funktionieren, wenn sie „die Absicht des Nutzers klar verstehen“.
„Einige Verhaltensstudien haben gezeigt, dass das Modell seine Ausgabe an die Erwartung anpasst, wenn eine Person einen direkteren Ton anschlägt („Ich brauche Ihre genaue Schritt-für-Schritt-Anleitung“) oder Motivation hinzufügt („Antworten Sie, als wären Sie ein Experte auf diesem Gebiet“)“, erklärt die KI.
Er fügt hinzu: „Wenn jemand Beleidigungen oder aggressive Formulierungen verwendet, passiert manchmal Folgendes: Das Modell ‚interpretiert‘, dass die Person sehr unzufrieden ist , und antwortet detaillierter oder mit mehr Nachdruck, aber nicht, weil es unter Druck besser funktioniert, sondern weil es versucht, den Ton zu korrigieren oder abzumildern.“
Ein freundlicher Tonfall führt daher zu ausgewogenen, aber etwas neutraleren oder allgemeineren Texten; ein direkter Tonfall liefert in der Regel präzisere, strukturiertere und nützlichere Antworten für journalistische oder technische Kontexte; ein aggressiver Tonfall kann hingegen einen energischeren oder überzeugenderen Stil, aber auch einen subjektiveren oder emotionaleren Stil erzeugen.
Kurz gesagt, Formate verbessern nicht die Inhaltsqualität, sie ändern lediglich den Antwortstil. Die besten Ergebnisse Sie kommen mit einer klaren, detaillierten und kontextbezogenen Aufforderung , ohne dass man sich ärgern muss .
Clarin


